- QUANTIQUE (MÉCANIQUE) - Propriétés fondamentales
- QUANTIQUE (MÉCANIQUE) - Propriétés fondamentalesLa mécanique quantique est aujourd’hui une théorie parfaitement «classique», dont la cohérence n’a fait que se renforcer au cours des cinquante dernières années. Après un laborieux enfantement au début du XXe siècle, elle accède à la maturité dans les années vingt. Bien qu’elle ait essentiellement reposé dans son élaboration sur les problèmes soulevés par la physique atomique, la mécanique quantique, une fois constituée en cadre théorique général, témoigne d’une fécondité extraordinaire dans les domaines voisins de la physique atomique et moléculaire, investit la chimie théorique, envahit la physique de l’état solide et des milieux condensés, et garde son empire sur les nouvelles branches de la microphysique: physique nucléaire d’abord, puis physique des particules fondamentales. Son hégémonie est restée à l’heure actuelle incontestée. Même si la mise en jeu des concepts fondamentaux de la théorie quantique se révèle parfois délicate et quelquefois même d’une extrême difficulté (par exemple en physique des particules), aucune indication expérimentale ne permet d’incriminer la validité même de ces concepts. Au contraire, la théorie quantique a remarquablement intégré certains développements tout à fait inattendus, comme la découverte de la non-conservation de la parité. Cette longue histoire d’un demi-siècle (cf. les articles BOHR, BROGLIE, DIRAC, HEISENBERG, PAULI, PLANCK, SCHRÖDINGER) a transformé le fragile, ésotérique et mystérieux corps de doctrine initial en une structure théorique robuste, aux solides assises expérimentales, qui constitue la référence commune de dizaines de milliers de chercheurs. Cette transformation radicale du statut de la physique quantique par la véritable pratique sociale dont elle est l’objet est cependant restée en général implicite. Son enseignement et sa vulgarisation n’ont pas, pendant longtemps, reflété cette transformation et ont pris un retard considérable. Loin d’utiliser d’emblée, pour élargir la compréhension et la connaissance des concepts quantiques, le riche matériau théorique et expérimental accumulé en plusieurs décennies, la plupart des exposés, cours ou livres ont suivi pas à pas le développement de la physique quantique. Cette méthode, beaucoup moins historique que chronologique (puisque toute histoire est nécessairement récurrente), a entraîné des pertes de temps considérables et répandu une confusion certaine. Il n’est pas interdit de voir ici les fâcheuses conséquences épistémologiques des tendances idéologiques dominantes telles qu’elles se sont marquées, dès les débuts de la physique quantique, dans le succès de philosophies de type positiviste. Cette interprétation est fondée sur l’absence quasi totale, dans le discours pédagogique usuel, de référence à la pratique massive qui sous-tend cette branche de la physique.Mais ces remarques mêmes, si elles conduisent à envisager une approche nouvelle, en marquent les limites. S’il est vrai, en effet, qu’on peut tenter aujourd’hui d’utiliser une déjà longue familiarité collective avec la physique quantique pour essayer d’en simplifier la présentation, dégageant les concepts essentiels et unifiant la structure de leurs relations réciproques, il est non moins vrai qu’aucun discours linéaire ne suffira à en donner une connaissance efficace. Si une certaine verbalisation préliminaire à la formalisation théorique (mathématique) est possible, cette dernière reste essentielle à toute compréhension réelle, puisqu’elle est la condition nécessaire de toute mise en pratique des lois physiques considérées, mise en pratique qui reste le critère ultime de la connaissance scientifique.Ces considérations, qui valent pour toute tentative de diffusion de connaissances scientifiques, prennent une importance particulière dans le cas de la mécanique quantique, par suite de la rupture que celle-ci implique avec un type de conceptualisation si familier qu’il semble s’identifier au «sens commun». Il est donc indispensable d’affirmer que cette rupture ne saurait être surmontée par une présentation faussement graduée qui masquerait la transition de la physique dite classique vers la physique quantique, sous la continuité chronologique par exemple. Les pseudo-paradoxes et difficultés résultant de la description des concepts et lois quantiques ne peuvent en aucun cas être levés par un raffinement de l’exposé ou par une vulgarisation plus détaillée. Tout au plus, le discours pédagogique peut-il tenter de convaincre de sa cohérence interne. La conviction de sa validité ne peut découler de l’écoute ni de la lecture passive de ce discours, mais elle exige une mise en jeu active. Il s’agira donc ici seulement d’une mise en place générale de la physique quantique , portant moins sur le détail formel de son contenu que sur son architecture générale et ses relations avec la physique dite classique; on soulignera avant tout les ruptures et les différences, y compris lors de l’utilisation des indispensables analogies.On précisera enfin un point de terminologie: l’expression «physique quantique» est ici utilisée pour désigner les divers domaines de la physique, théorique et expérimentale, qui reposent sur les lois et concepts de la «mécanique quantique». Ce terme (on dira aussi parfois «la théorie quantique») désigne l’ensemble de la structure théorique générale commune à ces domaines, indépendamment de leurs caractéristiques spécifiques. On se reportera, pour saisir ce point, au bilan détaillé des applications (mieux vaudrait dire des réalisations) de la mécanique quantique: physique atomique [cf. ATOME], physique moléculaire, physique des solides (cf. physique du SOLIDE), physique nucléaire [cf. NOYAU ATOMIQUE], physique des particules (cf. PARTICULES ÉLÉMENTAIRES, théorie des CHAMPS), etc.1. Les particules quantiques: ondes et/ou corpuscules?La physique classique (préquantique) connaît essentiellement deux catégories d’objets: les corpuscules et les ondes. Les premiers sont des entités discrètes, localisées dans une région restreinte de l’espace, décrivant certaines trajectoires, possédant à tout instant une position et une vitesse déterminées. Liées à sa vitesse, l’énergie et la quantité de mouvement d’un corpuscule sont les concepts essentiels que fait intervenir leur dynamique. Quant aux ondes classiques, elles décrivent des phénomènes non localisés, continus et occupant tout l’espace. Elles se superposent, donnant ainsi lieu à des interférences. Tout phénomène ondulatoire se décrit commodément comme une superposition d’ondes périodiques, à la fois dans le temps et dans l’espace, et donc caractérisées par une longueur d’onde (période spatiale) et une période temporelle.La mécanique quantique a procédé à une remarquable unification de ces deux catégories. On l’introduira ici au moyen d’une expérience conceptuelle très simple. Soit un dispositif formé d’une source S, d’une paroi P percée de deux trous 1 et 2 (trous d’Young) et d’un écran récepteur E. Envisageons trois situations: S émet des corpuscules classiques, S émet des ondes classiques, S émet des particules quantiques.a ) La source S émet des corpuscules classiques . On imaginera, par exemple, une mitrailleuse, sur un trépied, tirant de façon désordonnée dans toutes les directions. La paroi blindée P arrête les balles qui ne peuvent passer que par les trous 1 et 2 (fig. 1 a). Supposons tout d’abord 1 seul ouvert; seules parviennent à l’écran les balles passées par 1, dont les points d’impact forment une tache alignée sur S1, quelque peu élargie par l’effet des bords du trou sur les balles tangentes. Un résultat analogue se produit si 2 seul est ouvert. Dans chacun de ces cas, les répartitions des balles sur l’écran sont représentées par deux courbes I1 et I2. Si les deux trous sont ouverts, on obtient une courbe de répartition qui n’est autre que la somme des courbes précédentes: I1,2 = I1 + I2. En effet, bien que ces courbes soient continues, puisqu’elles donnent le nombre moyen de balles arrivant en chaque point de l’écran, le phénomène est corpusculaire, donc discontinu; chaque balle passe soit par le trou 1, soit par le trou 2. Le nombre de balles arrivant en un point de l’écran est bien la somme du nombre des balles passées par l’un ou par l’autre des trous.b ) La source S émet des ondes classiques . Il s’agira par exemple d’une source sonore mettant l’air en vibration comme un haut-parleur. Un microphone se déplaçant sur l’écran E y mesurera l’intensité sonore (fig. 1 b). Supposons d’abord 1 seul ouvert; aux effets de diffraction par les bords près, le son ne parviendra sur l’écran que dans la zone située sur la ligne S1. Le résultat sera analogue si 2 seul est ouvert, de sorte que, dans ce cas, les intensités I1 et I2 ressemblent à celles du cas précédent. Mais, si l’on ouvre 1 et 2, on obtient un phénomène tout différent: l’intensité I1,2 présente des maximums et minimums successifs sur l’écran et n’est plus identique à la somme I1 + I2. En effet, l’onde sonore, non localisée, passe à la fois par les deux trous 1 et 2. L’amplitude de l’onde arrivant sur l’écran résulte donc de l’addition des amplitudes transmises par 1 et par 2. Comme, en général, les chemins parcourus depuis 1 et 2 diffèrent, les deux ondes sont décalées. Si la différence des chemins est d’une longueur d’onde (ou de deux, ou de trois, etc.), les ondes atteignent leur amplitude maximale en même temps et se renforcent (elles sont en phase). Si cette différence est d’une demi-longueur d’onde, les ondes ont des amplitudes exactement opposées, leurs effets se compensent et leur résultante est nulle (opposition de phase). L’intensité, qui est proportionnelle au carré de l’amplitude, sera maximale dans le premier cas, minimale (nulle) dans le second. Ces interférences sont liées à la continuité du phénomène ondulatoire qui se propage de la source à l’écran par l’un et l’autre des trous (au lieu du «ou » disjonctif du cas corpusculaire). En termes plus techniques, on introduit les amplitudes u 1 et u 2 des ondes partielles transmises par 1 et par 2. Les intensités I1 et I2 sont données par I1 = (u 1)2 et par I2 = (u 2)2. Quand les trous 1 et 2 sont ouverts, l’amplitude est u 1,2 = u 1 + u 2 (superposition des ondes) et l’intensité I1,2 = (u 1 + u 2)2 I1 + I2.c ) Utilisons maintenant une source lumineuse en S et une plaque photographique sur l’écran E. Si l’intensité de la source lumineuse est forte, le résultat est analogue au cas précédent: il y a interférence d’ondes lumineuses, ce qui se traduit expérimentalement par une alternance de plages sombres et de plages claires sur la plaque photographique [cf. INTERFÉRENCES LUMINEUSES]. Mais, si l’on diminue considérablement l’intensité de la source lumineuse (par exemple au moyen de filtres absorbants), on s’aperçoit que l’intensité lumineuse sur la plaque, loin d’être continue, résulte en fait d’une multitude d’impacts lumineux microscopiques. Le flux lumineux est en réalité discontinu et constitué d’entités individuelles: ce sont les photons. Ces photons arrivent donc un par un sur la plaque. Ils sont dénombrables comme des corpuscules classiques, mais présentent néanmoins des phénomènes d’interférences comme les ondes classiques: c’est le plus ou moins grand nombre de photons arrivant sur une zone donnée de la plaque qui rend compte de ces différences d’éclairement et donc de l’apparition de la figure d’interférences. On obtient des résultats analogues en faisant l’expérience avec des électrons. Dans ce cas, l’aspect corpusculaire évident se voit corrigé par l’apparition d’un phénomène d’interférences ondulatoire, que traduit la répartition des impacts successifs des électrons.On en conclut que photons et électrons ne sont assimilables ni aux corpuscules ni aux ondes de la mécanique classique. Ils présentent, et toutes les particules de la microphysique avec eux, des caractères à la fois spécifiques et universels: tous les micro-objets se comportent de même. En vérité, les concepts mêmes de corpuscule et d’onde ne sont que deux approximations, valables à l’échelle macroscopique et incompatibles entre elles, de la nature profonde et unique des constituants de la matière. Sans doute faudrait-il inventer un nouveau mot; quanton , parmi d’autres, a été proposé, pour désigner ces objets ni femme ni poisson: on parlera de particules quantiques en se souvenant qu’il ne s’agit ni de corpuscules ni d’ondes, mais que chacune de ces images peut être utile dans certaines conditions.Il reste à formaliser de façon cohérente ce comportement. L’existence même du phénomène d’interférences amène à introduire, comme dans le cas des ondes classiques, des amplitudes capables de s’ajouter. Ainsi, dans le cas de l’expérience des trous d’Young, l’arrivée des particules quantiques sur l’écran sera décrite par des amplitudes f 1(x ) ou f 2(x ), suivant que le trou 1 ou le trou 2 est seul ouvert, amplitudes qui dépendent évidemment de la position d’arrivée sur l’écran x à laquelle on s’intéresse. Comment interpréter les carrés de ces amplitudes qui donnaient les intensités du cas ondulatoire classique? Il n’y a pas ici d’intensités continues puisqu’il s’agit d’impacts individuels, discrets, des particules. C’est Max Born, en 1924, qui eut l’idée d’interpréter ces quantités comme les probabilités d’arrivée des particules: (f 1(x ))2 pour le trou 1. L’amplitude correspondant à l’ouverture des deux trous est la somme des deux amplitudes précédentes, f 1,2(x ) = f 1(x ) + f 2(x ); son carré donne la probabilité d’impact en x , et l’on voit qu’elle ne se réduit pas à la somme des probabilités correspondant à l’ouverture de chacun des trous.Cette description est générale: un processus quantique quelconque est décrit en termes d’amplitudes, appelées amplitudes de probabilité . Ce sont des nombres associés à un état initial (ici, émission de particules par la source) et à un état final donnés (ici, arrivée de la particule sur l’écran en x ) dans des conditions bien déterminées (ici, l’un, l’autre ou les deux trous ouverts). Leur carré donne la probabilité (ou, plus précisément ici, la densité de probabilité ) de réalisation de l’état final considéré à partir de l’état initial. La propriété essentielle de ces amplitudes de probabilité réside dans leur additivité : pour un état initial et un état final déterminés, l’amplitude correspondant à la conjonction de plusieurs éventualités intermédiaires (les deux trous ouverts) est la somme des amplitudes correspondant à chaque éventualité (l’un ou l’autre trou ouvert). Ce principe de superposition des amplitudes exclut évidemment l’additivité des probabilités elles-mêmes et il est la base des effets les plus notables de la mécanique quantique. La signification que l’on doit attribuer aux caractères probabilistes de la mécanique quantique sera étudiée plus loin (cf. chap. 5).Revenons sur la double apparence (classique) des particules (quantiques). Elle se traduit par deux formules fondamentales qui relient entre eux leurs aspects corpusculaires et ondulatoires. Comme les corpuscules classiques, les particules quantiques sont caractérisables par leur énergie E et par leur quantité de mouvement p . Comme les ondes classiques, elles peuvent être décrites à l’aide de leur fréquence temporelle 益 (l’inverse de la période: 益 = 1/T) et de leur fréquence spatiale, ou nombre d’ondes k (c’est l’inverse de la longueur d’onde: k = 1/, ou encore le nombre de longueurs d’onde comprises dans l’unité de longueur). On doit à Planck et à Einstein d’une part (1900-1905) et à de Broglie de l’autre (1924) d’avoir établi la proportionnalité de ces grandeurs, suivant les formules:où h est une constante universelle appelée constante de Planck de valeur h = 6,6 憐 10 size=1漣34 dans le système d’unités M.K.S.A., c’est-à-dire en joules-secondes. En d’autres termes, toute particule à laquelle on pourrait attribuer une énergie et une quantité de mouvement bien déterminées (ce n’est pas toujours le cas!) peut être conçue de façon approchée comme un corpuscule ainsi caractérisé dans certaines conditions, ou comme une onde de fréquence connue.On citera comme premier exemple l’effet photoélectrique . Einstein a montré, en 1905, que l’impact d’un photon de fréquence 益 sur un métal suffisait à en extraire un électron si l’énergie du photon h 益 dépassait l’énergie d’extraction W nécessaire pour dégager l’électron du métal. L’électron émerge alors avec l’énergie E = h 益 漣 W. La vérification de la dépendance linéaire de E par rapport à 益 permet de confirmer la relation (1) et de mesurer la constante de Planck. De même l’effet Compton (1922), ou émission d’électrons sous l’effet de rayons X, s’interprète-t-il aisément (cf. effet COMPTON) comme une simple collision entre un électron, initialement quasi immobile dans un atome, et un photon caractérisé par les propriétés (1) et (2). En sens inverse, les propriétés ondulatoires d’électrons de vitesses bien déterminées ont été vérifiées après la célèbre prédiction de L. de Broglie (1924), lors des expériences de diffraction d’électrons par un réseau cristallin, par C. L. Davisson et L. H. Germer (1927).2. Les relations de Heisenberg ; heuristique quantiqueLes relations de Planck-Einstein (1) et de De Broglie (2) lient des propriétés de type corpusculaire (énergie et quantité de mouvement d’entités discrètes) à des propriétés de type ondulatoire (périodicités spatio-temporelles). Leur existence même implique donc l’inapplicabilité sans réserve des concepts de corpuscule ou d’onde aux particules quantiques. Plus précisément, elles permettent de cerner le domaine de validité approximative de ces concepts. C’est là l’un des rôles essentiels des fameuses relations de Heisenberg , dites encore relations d’incertitude .Si l’on considère une particule quantique qui occupe un domaine spatial d’extension x limité, la longueur d’onde (ou la fréquence spatiale k = 1/ qui lui est associée) ne peut être précisée de façon absolue. En effet, un phénomène de longueur d’onde bien déterminée est rigoureusement périodique et possède donc une extension spatiale infinie. Dans le cas présent, si la dimension x de l’objet correspond à un nombre de périodes approximatif n , la longueur d’onde moyenne sera donnée par = x /n et la fréquence spatiale par k = n / x . Mais le nombre de périodes n ne peut certainement pas être défini à mieux qu’une unité près, puisque le phénomène, n’étant pas rigoureusement périodique, a un début et une fin qui ne correspondent pas à des périodes qu’on puisse nettement distinguer. Il en résulte une extension k de la fréquence spatiale k , liée à l’incertitude n 礪黎 1 sur le nombre de périodes n , soit k 礪黎 1/ x , où k 練 x 礪黎 1. Jusqu’ici le raisonnement vaut pour tout phénomène ondulatoire et lie son extension en configuration (spatiale) x à son extension en fréquence (spatiale) k . Mais, si l’on confronte ce résultat à la relation de De Broglie (2), on voit qu’à une certaine extension en fréquence spatiale k correspond nécessairement une extension en quantité de mouvement p = h k . D’où la relation de Heisenberg:Elle est ici conçue comme reliant l’extension spatiale x d’un objet quantique, sa «dimension géométrique», à la largeur du spectre p des valeurs de sa quantité de mouvement. Cette relation montre immédiatement qu’une particule quantique est inassimilable à un corpuscule classique, puisqu’un tel objet peut être simultanément localisé ponctuellement ( x = 0) et avoir une quantité de mouvement bien définie ( p = 0), c’est-à-dire obéir à l’égalité p 練 x = 0. En d’autres termes, les concepts mêmes de position (localisation) et de quantité de mouvement ne peuvent pas avoir, pour une particule quantique, strictement le même sens que pour un corpuscule classique, ce qui n’empêche pas ces concepts, une fois refondus au moule quantique, de garder toute leur importance.Une malheureuse tradition veut que les relations de Heisenberg reçoivent usuellement une interprétation assez différente, où x et p sont conçus comme des incertitudes sur les valeurs de la position et de la quantité de mouvement. La relation (3) est alors censée relier ces incertitudes de façon qu’elles ne puissent s’annuler toutes deux simultanément. On en conclut alors que la théorie quantique, et plus précisément la constante de Planck h , impose une limitation fondamentale à la précision des mesures physiques. Mais la terminologie même est ici lourde d’implications dangereuses: parler d’incertitudes sur la position et sur la quantité de mouvement, c’est automatiquement supposer qu’on veut connaître celles-ci exactement, donc qu’on prétend caractériser une particule quantique par les mêmes attributs qu’un corpuscule classique. C’est en fait l’illégitimité d’une telle prétention que sanctionne la relation (3). Si l’interprétation traditionnelle a des motivations historiques compréhensibles, sa persistance est plus troublante. En effet, lors de la naissance de la théorie quantique, il était parfaitement légitime et difficilement évitable d’utiliser au maximum la conceptualisation classique. Après un demi-siècle de pratique et l’établissement des concepts propres à la mécanique quantique, on ne comprend guère le maintien de l’interprétation primitive que comme manifestation du néopositivisme qui tient le rôle dominant en philosophie des sciences aujourd’hui.Loin d’ailleurs d’être un obstacle absolu à la précision des mesures et une limitation fondamentale de notre connaissance, les relations de Heisenberg offrent au contraire un moyen d’accès précieux à la compréhension de certains résultats de la mécanique quantique. Dans la mesure même où leur rôle fondamental est d’indiquer la limite de validité des concepts classiques, elles permettent de savoir «jusqu’où on peut aller trop loin» en utilisant ces derniers. Elles constituent ainsi un élément essentiel d’une féconde heuristique quantique largement utilisée (quoique parfois avec une singulière mauvaise conscience) par les physiciens.Un premier exemple d’application de la relation de Heisenberg est donné par la justification (technique, sinon sociale) de la course aux hautes énergies actuellement engagée en physique des particules et des interactions fondamentales. Le problème posé est celui d’une étude des lois de la physique à une échelle toujours plus petite. Or, pour étudier les phénomènes qui se déroulent dans une région de l’espace de dimensions inférieures à, mettons, x , il est nécessaire d’utiliser, comme sondes expérimentales, des objets (particules accélérées, ici) dont l’extension spatiale propre soit évidemment inférieure à la dimension x du domaine à explorer. D’après la relation de Heisenberg, cela exige que ces particules disposent d’un spectre de quantité de mouvement de largeur p 礪黎 h / x .Plus le domaine à explorer est petit, plus la quantité de mouvement maximale et donc l’énergie maximale de la particule doivent être grandes: d’où la nécessité d’accélérateurs de particules de plus en plus puissants (les accélérateurs actuels, qui communiquent aux particules des énergies de quelques centaines de milliards d’électrons-volts, rendent possible l’exploration des lois de la physique à l’échelle du millionième de milliardième de centimètre: 10 size=1漣15 cm).Un deuxième type d’application de la relation de Heisenberg concerne le problème fondamental de la physique atomique , celui-là même qui fut à l’origine des développements de la théorie quantique dans les années 1910-1925. Il s’agit d’expliquer la stabilité des atomes, c’est-à-dire l’existence d’un état d’énergie minimale. Classiquement, il existe, en effet, une gamme continue d’énergies possibles pour un système de charges électriques liées par les forces électrostatiques. Dans le cas le plus simple, celui de l’atome d’hydrogène, qui comprend un électron unique retenu par l’attraction coulombienne d’un proton, les orbites classiques de l’électron pourraient être aussi proches que l’on veut du proton, lui conférant des énergies potentielles négatives sans borne inférieure (les forces électrostatiques augmentent comme le carré de l’inverse de la distance entre les particules lorsque celles-ci se rapprochent, et l’énergie potentielle comme l’inverse de cette même distance). Mais on remarque que cette énergie potentielle, de plus en plus basse puisqu’elle correspond à des orbites électroniques de plus en plus petites, donc à une extension spatiale de plus en plus faible de l’électron, exige une extension en quantité de mouvement de plus en plus grande d’après la relation de Heisenberg et entraîne une valeur de plus en plus élevée pour la vitesse, donc pour l’énergie cinétique. L’énergie totale de l’électron comportant deux termes, l’énergie cinétique et l’énergie potentielle, qui varient en sens inverse, trouve ainsi la possibilité d’être bornée inférieurement dans la région où ni l’un ni l’autre des deux termes ne l’emporte considérablement sur l’autre. Ce raisonnement se formalise en écrivant l’énergie totale de l’électron sous sa forme classique:où e et m sont la charge et la masse de l’électron, p sa quantité de mouvement et r sa distance au noyau; cette égalité est soumise à la contrainte de la relation de Heisenberg:qui seule permet l’utilisation simultanée des concepts approximativement classiques de position (r ) et de quantité de mouvement (p ). Tenant compte de l’inégalité (5), l’énergie E totale obéit à l’inégalité:Conformément aux prévisions, cette quantité, nulle lorsque l’électron est indéfiniment éloigné du noyau, décroît ensuite et devient négative lorsqu’il se rapproche, mais se remet à croître indéfiniment lorsqu’il s’approche de trop près (croissance de l’énergie cinétique due à la trop forte localisation, par le jeu de la relation de Heisenberg). Cette énergie admet un minimum pour une valeur de la distance entre électron et noyau égale à:et est alors de l’ordre de:Naturellement, ces expressions n’ont qu’une valeur approchée et ne sont significatives qu’à un certain coefficient numérique près. Il est néanmoins très satisfaisant de constater que le rayon calculé suivant (7) est de l’ordre du dixième de nanomètre (10 size=1漣9 m) et l’énergie (8) de l’ordre de quelques électrons-volts. Ce sont bien là les valeurs expérimentales caractéristiques de l’atome d’hydrogène, et la démarche heuristique qui a abouti aux expressions (7) et (8) s’en trouve justifiée de même que la confiance en la possibilité d’une solution quantique rigoureuse du problème.En parfaite analogie avec la relation de Heisenberg «spatiale» (3), on établit une relation de Heisenberg «temporelle». On commence par noter, tout à fait classiquement, qu’un phénomène de durée t ne peut être qu’approximativement périodique et que sa fréquence 益 ne peut avoir une valeur bien déterminée; le phénomène possède nécessairement une certaine bande de fréquences de largeur 益, telle que t 練 益 礪黎 1. D’après la relation de Planck-Einstein (1), on en déduit que l’énergie du phénomène considéré possède une gamme de valeurs d’extension E, telle que:En physique quantique, seuls peuvent donc avoir des énergies bien déterminées ( E = 0) des systèmes permanents dans des états invariables au cours du temps ( t = 秊); ce sont des états stationnaires . Inversement, des systèmes aux propriétés variables au cours du temps, dans des états non stationnaires, n’ont pas d’énergie bien déterminée. Ainsi les états instables de divers systèmes physiques possèdent-ils une largeur d’énergie naturelle minimale 嗀E, reliée à leur durée de vie 精 par la relation 嗀E 練 精 礪黎 h . Ces deux concepts, durée de vie et largeur de la bande d’énergie, sont absolument équivalents. Seule la pratique expérimentale entraîne l’utilisation prioritaire de l’un ou de l’autre. Ainsi les désintégrations par interactions faibles des particules fondamentales (par exemple, celle du méson 神, 神+猪+ + 益) ont-elles des temps caractéristiques – il s’agit des durées de vie des particules – directement mesurables ( 精 力 2,6 憐 10 size=1漣8 s, dans le cas cité), mais des largeurs très faibles ( 嗀E 力 2 憐 10 size=1漣14 MeV) par rapport à la masse (m 力 140 MeV du méson 神). Au contraire, pour les désintégrations dues aux interactions fortes (par exemple 福+神+ + 神0), c’est la largeur du spectre d’énergie, ou spectre de masse, que l’on mesure directement ( 嗀E 力 160 MeV), car la durée de vie correspondante ( 精 力 4 憐 10 size=1漣24 s) est beaucoup trop faible.3. Le formalisme général de la théorie quantiqueLa description qui suit du formalisme de la mécanique quantique a pour double but d’esquisser la conceptualisation mathématique qu’elle utilise et de montrer comment celle-ci rend compte des aspects heuristiques précédemment évoqués. Pour les raisons avancées en introduction, il ne s’agira ni d’une déduction formelle de la structure théorique ni d’une présentation didactique visant à rendre celle-ci immédiatement opérante. Il faut encore préciser qu’il s’agit ici d’un (plutôt que du ) formalisme de la théorie quantique. Celle-ci, comme toutes les théories physiques, est susceptible d’un certain polymorphisme mathématique et peut admettre des abstractions de divers niveaux. Entre les plus archaïques de ces formalismes (la mécanique ondulatoire ) et les plus modernes (fondés sur la théorie mathématique des algèbres stellaires ), on choisira un cours moyen, correspondant grosso modo à la pratique adoptée à l’heure actuelle par la majorité des théoriciens.La description théorique générale d’un système physique exige deux «règles de représentation » (on emploiera le mot «règle» à cause de sa neutralité épistémologique relative, pour éviter ici de soulever les problèmes qu’impliquerait le choix entre des termes comme «axiomes», «postulats», «lois», etc.). Il faut formaliser d’une part l’état physique du système, d’autre part ses propriétés , encore appelées «observables physiques», ou «variables dynamiques». En mécanique classique, il est habituel de décrire l’état d’un système par les positions et les vitesses des points matériels qui le constituent: c’est le formalisme lagrangien [cf. MÉCANIQUE ANALYTIQUE]. Les variables dynamiques, quant à elles (distance, quantité de mouvement, énergie, moment angulaire, etc.), sont des fonctions de ces positions et de ces vitesses. Une autre possibilité (formalisme hamiltonien ) consiste à adopter les positions et les quantités de mouvement comme paramètres descriptifs des états.En mécanique quantique, la situation est bien différente.Règle de représentation des états physiquesLes états d’un système physique sont décrits par les vecteurs unitaires d’un espace de Hilbert (ou espace vectoriel sur le corps des complexes, complet muni d’un produit scalaire, de norme associée définie positive). Cette règle formalise immédiatement le principe de superposition, par l’additivité (linéarité d’un espace vectoriel) qu’elle assure à l’ensemble des états d’un système: il existe une notion de somme de deux états d’un système dont le résultat est encore un état possible.Règle de représentation des propriétés physiquesLes observables physiques, ou variables dynamiques, d’un système sont décrites par des opérateurs linéaires auto-adjoints (hermitiques) agissant dans l’espace de Hilbert des états du système. Ce n’est pas le lieu de mentionner les subtiles difficultés mathématiques d’une telle définition, qui en exigent une certaine généralisation technique (problèmes du «spectre continu», extensions d’opérateurs, etc.). On remarquera seulement la modification radicale qu’elle implique des règles de la mécanique classique. Comme il a été dit, les concepts de position, de quantité de mouvement, etc., subsistent en mécanique quantique, mais avec une expression mathématique, et donc un sens physique profondément différent.Il faut encore introduire un élément essentiel, une règle de correspondance , qui, une fois connue la description théorique de l’état et des propriétés d’un système, permette, d’une part, d’établir le lien entre cette description et les résultats des mesures concrètes et, d’autre part, de représenter les expériences réelles auxquelles est soumis le système. Il s’agit de savoir ce que prédit la théorie pour valeur d’une variable dynamique donnée dans un certain état du système. En mécanique classique, cette règle est quasi évidente: la valeur (théorique) d’une variable dynamique, fonction des positions et des vitesses du système, est la valeur numérique que prend cette fonction pour les valeurs numériques des positions et des vitesses dans l’état du système. En mécanique quantique, les choses sont un peu plus compliquées. On rappellera tout d’abord, avant d’énoncer la règle, les notions de valeurs propres et de vecteurs propres d’un opérateur auto-adjoint A dans un espace de Hilbert 流. Un «vecteur propre» 﨏a 捻 流 de A, correspondant à la «valeur propre» a , est défini par la propriété:Autrement dit, l’action de l’opérateur sur un de ses vecteurs propres revient à le multiplier par la valeur propre correspondante. Les valeurs propres d’un opérateur auto-adjoint sont des nombres réels. L’ensemble des valeurs propres d’un opérateur est appelé son «spectre». Celui-ci peut être discret (composé de valeurs propres dénombrables, séparées), ou continu (il convient dans ce cas de raffiner quelque peu le formalisme mathématique), ou encore il peut comporter une partie discrète et une partie continue. L’importance, plus pratique que fondamentale, des opérateurs auto-adjoints en théorie quantique, ne tient pas tant à la réalité de leur spectre qu’aux propriétés de leurs vecteurs propres. En effet, l’ensemble des vecteurs propres 﨏a d’un opérateur A auto-adjoint forme, une fois ces vecteurs normalisés, une base orthonormée, et n’importe quel vecteur 祥 de l’espace de Hilbert s’exprimera donc sous la forme d’une combinaison linéaire de ces vecteurs de base, avec pour coefficients ses projections sur ces vecteurs, c’est-à-dire les produits scalaires correspondants; en d’autres termes:Règle de correspondancea ) Les valeurs possibles d’une propriété physique, représentée par un opérateur auto-adjoint A, sont les valeurs propresa de cet opérateur.b ) La mesure de la propriété représentée par l’opérateur A sur un système dans l’état représenté par le vecteur unitaire 祥 fournit l’une quelconque des valeurs propres a de A avec une probabilité:On voit apparaître ici les amplitudes de probabilité déjà mentionnées.On reprendra l’exemple de l’expérience des trous d’Young pour illustrer le formalisme introduit ci-dessus. Cette expérience peut être conçue comme une mesure de la position d’arrivée des particules sur l’écran. À cette propriété observable (la position) correspond un certain opérateur auto-adjoint X, dont le spectre est continu et comprend toutes les valeurs numériques possibles de position sur l’écran. À chaque valeur propre x correspond un vecteur propre 﨏x tel que X 﨏x = x 﨏x qui représente l’état physique d’une particule exactement localisée au point x . Si l’on appelle 祥1 le vecteur d’état d’une particule lorsque le trou 1 est seul ouvert, l’amplitude de probabilité de la recevoir sur l’écran au point x s’écrit alors, d’après la relation (12), f 1(x ) = ( 祥1, 﨏x ). De même, lorsque le trou 2 est seul ouvert, on a f 2(x ) = ( 祥2, 﨏x ). Enfin, si les deux trous sont ouverts, l’état de l’électron est représenté, d’après le principe de superposition, par le vecteur 祥1,2 = 祥1 + 祥2, de sorte que l’amplitude de probabilité f 1,2 = ( 祥1,2, 﨏x ) est bien la somme des deux amplitudes f 1(x ) et f 2(x ).On peut comprendre maintenant l’origine précise des relations de Heisenberg et faire le lien entre le formalisme rigoureux décrit ici et l’approche heuristique utilisée plus haut. En effet, il découle de la règle de correspondance qu’un système physique ayant pour vecteur d’état un vecteur propre d’un certain opérateur A est caractérisé par une valeur numérique déterminée de l’observable en question (la valeur propre correspondante): la probabilité calculée suivant la relation (12) est égale à 1 pour cette valeur et à 0 pour toutes les autres. Il en résulte qu’un système physique, pour pouvoir être caractérisé par des valeurs bien déterminées de plusieurs observables, doit posséder un vecteur d’état qui soit simultanément vecteur propre des différents opérateurs correspondants. Cela n’est guère possible en général, chaque opérateur ayant son propre jeu de vecteurs propres. On montre que deux opérateurs ont les mêmes vecteurs propres si, et seulement si, ils «commutent», c’est-à-dire si l’on obtient le même résultat, quel que soit l’ordre dans lequel on les applique à un vecteur de l’espace de Hilbert. On est ainsi amené à définir le commutateur de deux opérateurs quelconques A et B:si ce commutateur est nul, les deux observables correspondant à A et à B pourront simultanément prendre des valeurs bien déterminées. Mais il n’existe, pour tout système physique, qu’un nombre limité de tels opérateurs qui commutent (non uniquement défini d’ailleurs). On ne doit donc pas s’attendre que puissent être simultanément déterminées toutes les observables d’intérêt. C’est le cas, en particulier, des observables de position X et de quantité de mouvement P qui obéissent à la relation de commutation canonique :où I est l’opérateur identité et 寮 = h /2 神 une constante de Planck redéfinie, souvent plus commode à utiliser que h elle-même. Grâce à cette relation (dont on examinera l’origine plus loin: cf. chap. 4), on démontre rigoureusement la relation de Heisenberg (3). Celle-ci exprime bien l’impossibilité d’états physiques simultanément définis en position et en quantité de mouvement. Elle repose, on le voit ici, sur la nature profonde des concepts quantiques de position et de quantité de mouvement.Dans la pratique, on repère les états d’un système physique par rapport à une base de l’espace de Hilbert formée de vecteurs propres communs à un certain ensemble d’opérateurs, commutant entre eux et choisis pour leur intérêt physique. Parmi eux figure presque toujours l’opérateur d’énergie, ou hamiltonien. En effet, on a déjà vu, en étudiant la relation de Heisenberg temporelle (9), que les états stationnaires d’un système physique sont les états d’énergie bien définis, c’est-à-dire les états propres de l’opérateur correspondant. Le calcul des énergies possibles d’un système, ou valeurs propres de l’opérateur d’énergie (on dit la «diagonalisation» de cet opérateur), constitue le moment principal de toute une classe de problèmes quantiques. Ainsi le calcul théorique des fréquences des raies d’émission lumineuse des atomes, ou théorie de la spectroscopie atomique, repose-t-il sur le calcul des niveaux d’énergie des atomes [cf. SPECTROSCOPIE]. Le spectre d’énergie d’un système physique constitue souvent un bon exemple de spectre mixte, comportant une partie discrète et une partie continue. Quand il existe, le spectre discret (niveaux d’énergie séparés, dénombrables) correspond aux états liés du système physique, ceux où ses divers constituants restent groupés sous l’effet de forces attractives. Le spectre continu, lui, correspond aux états de diffusion , qui décrivent l’interaction entre deux systèmes se rapprochant depuis une distance infinie puis s’éloignant à nouveau: c’est le type d’expérience pratiqué à l’aide d’accélérateurs de particules, par exemple.4. Du principe de compatibilité aux principes de symétrieFrontière entre classique et quantiqueAprès cette description générale du formalisme quantique, valable pour un système physique quelconque, il reste à concrétiser cette structure, c’est-à-dire à la réaliser pour tel ou tel cas particulier. Plus précisément, le problème est de savoir sur quelles bases établir la réalisation pratique de la théorie pour un système physique donné, en particulier par quel opérateur représenter telle observable physique.Cette question a été abordée dès les débuts de la théorie quantique à l’aide d’un «principe de correspondance», que l’on préférera appeler ici principe de compatibilité . Il s’agit d’une exigence de cohérence élémentaire: à la limite où les effets quantiques deviennent négligeables (par exemple quand la valeur numérique de 寮 est très petite comparée aux ordres de grandeur du système considéré), les prédictions de la mécanique quantique doivent coïncider avec celles de la mécanique classique. Ce principe est une sorte de condition aux limites qu’il est tout naturel d’imposer à la théorie quantique et qu’il est assez normal d’utiliser comme guide au passage de la frontière entre classique et quantique. La fécondité de ce point de vue a d’ailleurs été étonnante. Sous une forme d’abord plutôt vague et heuristique, c’est bien ce «principe de compatibilité» que Bohr utilisa pour formuler son fameux modèle de l’atome d’hydrogène (1913). Après de multiples raffinements, le principe de compatibilité fut formalisé par Dirac sous la forme d’une règle de comparaison entre la mécanique classique en formalisme hamiltonien et la mécanique quantique. Suivant cette règle, les crochets de Poisson [cf. MÉCANIQUE ANALYTIQUE] de la mécanique classique correspondent aux commutateurs de la mécanique quantique; si, classiquement, on a 遼, 龍 = 暈 pour trois observables (classiques) 遼, 龍 et 暈, les opérateurs quantiques A, B et C correspondants obéissent à [A, B] = i 寮 C. On justifie ainsi la relation de commutation canonique (14) sur la base de son homologue classique, le crochet de Poisson canonique: face=F0019 栗, 戮 = 1.S’il a joué un rôle historique décisif, le principe de compatibilité présente néanmoins de graves limitations. Il est tout d’abord épistémologiquement peu satisfaisant de fonder le détail de la structure de la mécanique quantique sur celle de la mécanique classique, dans la mesure où cette dernière n’est conçue que comme une approximation de la première. Sur le plan pratique ensuite, le principe de compatibilité ne permet la construction que des seules observables quantiques qui ont un analogue (une limite) classique. Des propriétés spécifiquement quantiques, ne donnant pas lieu à effets classiques, ne pourront qu’être ignorées dans une telle approche: c’est le cas, par exemple, du spin , ou moment angulaire intrinsèque des particules.Principes de symétrieIl est possible, en fait, de se passer du principe de compatibilité pour la réalisation concrète des théories quantiques. Son rôle est avantageusement remplacé par celui que jouent aujourd’hui les principes de symétrie . L’importance de ces derniers n’a fait que croître au cours des développements de la physique théorique moderne.L’existence de propriétés très générales de symétrie (dites encore d’invariance ) des phénomènes physiques a, en effet, des conséquences particulièrement importantes en physique quantique. Il s’agit principalement ici des symétries spatio-temporelles: les lois auxquelles obéit un système physique isolé gardent la même forme lorsque ce système subit une translation spatiale, une rotation spatiale, une évolution au cours du temps ou une mise en mouvement uniforme (principe de relativité ). Ces diverses opérations forment un groupe de transformation (cf. GROUPES [mathématiques]): il s’agit, en fait, du groupe de Poincaré, mais on utilise souvent son approximation «non relativiste», le groupe de Galilée. En mécanique quantique, l’invariance des lois régissant un certain système physique sous une transformation d’un groupe de symétrie exige l’invariance des probabilités, telles que les donne la relation (12), qui régissent les prédictions théoriques. Un théorème fondamental, dû à Wigner, assure alors que l’effet de la transformation en question sur le système est donné par l’action, dans l’espace de Hilbert des états, d’un opérateur unitaire associé à la transformation. La loi de groupe, qui régit la composition des diverses transformations, entraîne alors que les opérateurs unitaires qui leur sont associés forment une représentation (unitaire ) du groupe . Si ce groupe est continu, et plus précisément s’il est un groupe de Lie, il peut être étudié par des méthodes infinitésimales (cf. GROUPES – Groupes de Lie). On considère alors son algèbre de Lie, qui est représentée dans l’espace de Hilbert des états par une algèbre d’opérateurs auto-adjoints: ce sont les générateurs infinitésimaux de la représentation du groupe. Ces opérateurs sont étroitement associés à ceux qui correspondent aux observables physiques. Ainsi l’invariance par translation spatiale a-t-elle pour générateurs infinitésimaux les opérateurs de quantité de mouvement. De même l’énergie se trouve-t-elle associée à l’évolution temporelle, le moment angulaire aux rotations et la position aux transformations de Galilée ou de Lorentz (mise en mouvement uniforme). Les relations de commutation fondamentales entre les opérateurs représentant les observables physiques reflètent donc simplement les propriétés d’invariance spatio-temporelles. Ainsi la relation de commutation canonique (14) exprime-t-elle l’exigence que l’opérateur de position X se transforme correctement lors d’une translation spatiale, dont l’opérateur de quantité de mouvement P est le générateur infinitésimal.Parmi ces divers générateurs infinitésimaux, une importance toute particulière est dévolue à l’opérateur d’énergie, ou hamiltonien [cf. MÉCANIQUE ANALYTIQUE]. Générateur de l’évolution temporelle, c’est lui qui gouverne la dynamique du système considéré. Dans l’expression du hamiltonien apparaissent les propriétés caractéristiques des forces et des interactions qui régissent le système physique. En mécanique quantique non relativiste, ces forces sont symbolisables par un potentiel d’interaction , donnant à l’énergie une expression formellement identique à celle de la mécanique classique, somme d’un terme cinétique (fonction des quantités de mouvement) et d’un terme potentiel (fonction des positions); mais il s’agit ici de grandeurs opératorielles. On appelle communément équation de Schrödinger [cf. ATOME] cette expression du hamiltonien d’un système de particules quantiques non relativistes. La «résolution» de cette équation n’est autre que la diagonalisation du hamiltonien et fournit les énergies et les vecteurs d’état des états stationnaires. Cette diagonalisation est souvent facilitée par la diagonalisation simultanée d’observables physiques commutant avec le hamiltonien et ayant donc les mêmes vecteurs propres que lui. Ces observables ont d’ailleurs un sens physique très important: puisque le hamiltonien, générateur de l’évolution temporelle, commute avec elles, elles ne sont pas affectées par l’écoulement du temps et restent invariantes. Elles obéissent donc à des lois de conservation . Plus précisément, un état propre de telles observables le reste au cours du temps avec une valeur propre (valeur numérique de la grandeur physique correspondante) constante. Un exemple intéressant est celui de forces centrales, où la symétrie sphérique du problème (invariance par rapport au groupe des rotations spatiales) entraîne la conservation du moment cinétique (générateur infinitésimal de ce même groupe) par rapport au centre de forces. La diagonalisation de telles observables permet une diagonalisation partielle du hamiltonien en séparant l’espace de Hilbert des états en sous-espaces invariants plus petits; elle fournit de plus un repérage des états stationnaires au moyen de paramètres (les valeurs propres des observables invariantes) à la signification physique importante. Il reste à préciser qu’il n’est pas toujours commode de travailler à l’aide de la seule structure abstraite de l’algèbre des observables, en n’utilisant que leurs relations de commutation. Pour la plupart des problèmes complexes de physique atomique par exemple, on utilise une réalisation particulière de cette structure. On y choisit pour espace de Hilbert un espace de fonctions de carré sommable, et les opérateurs canoniques de position et de quantité de mouvement sont réalisés comme opérateurs de multiplication et de dérivation respectivement:obéissant bien à la relation de commutation (14). C’est la réalisation dite «réalisation dans l’espace de configuration». Elle recouvre l’ancienne «mécanique ondulatoire», qui n’est que l’une des formes possibles de la mécanique quantique. Dans cette réalisation, le vecteur d’état prend souvent le nom de «fonction d’onde» et l’équation de Schrödinger devient une équation aux dérivées partielles, que l’on peut résoudre à l’aide de plusieurs méthodes d’approximation.En conclusion, on affirmera donc que l’étude détaillée des représentations des groupes d’invariance offre une base solide et satisfaisante pour la construction concrète des algèbres d’observables quantiques. On pourrait être surpris que les principes d’invariance soient capables de remplacer le principe de compatibilité dont la nature semble être totalement différente. Cependant, l’hypothèse même de l’invariance spatio-temporelle des lois physiques quantiques représente en fait une extension de la connaissance de l’espace-temps telle qu’elle a été acquise macroscopiquement et telle qu’elle se traduit en mécanique classique. Le postulat que cette structure reste valable en mécanique quantique est assimilable à une forme très faible du principe de compatibilité entre les mécaniques quantique et classique. Les deux approches ne sont donc pas totalement disjointes.5. Les problèmes épistémologiques: déterminisme, théorie de la mesure et séparabilitéLe développement de la théorie quantique s’est accompagné de débats philosophiques extrêmement vifs. La nouveauté conceptuelle de la théorie, la nécessité de se débarrasser des modes de pensée qu’avait imposés la mécanique classique, la difficulté de construire la nouvelle vision du monde posaient aux fondateurs de la théorie de graves problèmes épistémologiques. Il est devenu coutumier d’affirmer que la discussion de ces problèmes a conduit la physique quantique à exercer une influence notable sur le développement de la philosophie contemporaine. La réalité semble être moins simple et, s’il est certain que la physique quantique a largement favorisé le néopositivisme, courant philosophique dominant aujourd’hui [cf. VIENNE], on peut se demander si c’est bien elle qui a mené la bataille, ou si elle n’a pas plutôt été utilisée comme alliée inconsciente, voire comme otage.Le déterminisme et la mécanique quantiqueC’est le problème du déterminisme qui a, pour l’essentiel, animé le débat épistémologique autour de la mécanique quantique [cf. DÉTERMINISME]. On sait que Laplace avait mis l’accent sur le strict déterminisme qui régit la mécanique classique: partant des lois de la dynamique d’un certain système classique (les forces qui s’y exercent), la connaissance de son état à un instant donné détermine de façon unique son état à tout instant ultérieur (et antérieur, d’ailleurs). On entend ici par état à un instant donné l’ensemble des valeurs à cet instant des positions et des vitesses de tous les éléments du système. Les relations de Heisenberg interdisent évidemment à cette assertion de garder un sens en mécanique quantique: suivant leur interprétation courante, la connaissance des positions à un certain instant suppose la méconnaissance des quantités de mouvement ou des vitesses, et empêche donc toute prévision rigoureuse, ruinant ainsi le déterminisme classique. En fait, le problème est faussé au départ par l’hypothèse implicite et injustifiée que la donnée de l’état d’un système doit nécessairement être faite en termes de positions et de vitesses, c’est-à-dire à l’aide des concepts classiques. On a vu que ceux-ci sont en fait inadéquats pour la description des systèmes quantiques. Dès lors, si l’on accepte de caractériser ces derniers comme ils doivent l’être, c’est-à-dire par un vecteur de l’espace de Hilbert des états, la question se pose tout autrement, puisque l’évolution temporelle du vecteur d’état d’un système physique isolé est gouvernée par un opérateur unitaire. Ce dernier est défini sans ambiguïté, par exemple par la donnée de son générateur infinitésimal, le hamiltonien, fixé à son tour par les forces qui régissent le système. En d’autres termes, on retrouve un comportement parfaitement déterministe: la connaissance du vecteur d’état à un instant donné permet de le connaître à tout autre instant. Seules la méconnaissance de la spécificité des concepts quantiques et l’absence de familiarité avec eux ont entraîné la confusion sur ce point, dans les premiers temps du développement de la physique quantique. Cette confusion n’est malheureusement toujours pas levée.Il ne s’agit là cependant que d’un problème assez simple, dans la mesure où il concerne le comportement de systèmes physiques isolés. La difficulté réapparaît dès que l’on considère l’interaction des systèmes quantiques avec d’autres objets matériels, en particulier avec les appareils macroscopiques qu’utilisent les physiciens expérimentateurs.Théorie quantique de la mesureLa plupart des discussions philosophiques se sont effectivement concentrées sur la théorie quantique de la mesure . La règle de correspondance énoncée plus haut (cf. chap. 3), bien qu’elle indique les résultats possibles d’une mesure, laisse ouverte une question essentielle: quel est l’état du système physique après que la mesure a été effectuée? Par le fait même qu’une mesure puisse donner lieu à divers résultats (les valeurs propres de l’opérateur correspondant à l’observable mesurée), mais que seul un de ces résultats soit, en définitive, obtenu, il est clair que l’opération de mesure modifie l’état du système. La prescription suivante semble alors s’imposer et se trouve en parfait accord avec les résultats expérimentaux.Règle de réduction : Quel que soit le vecteur d’état initial d’un système physique, si la mesure d’une propriété physique représentée par l’opérateur A a donné la valeur propre a , le système a, pour vecteur d’état après la mesure, le vecteur propre correspondant 﨏a de A.En d’autres termes, l’acte de mesure est réputé avoir aboli la pluralité des valeurs possibles de la grandeur physique en question, et le système est censé se trouver maintenant dans un état où il a une valeur bien déterminée de cette grandeur. Quoi de plus naturel que cette «réduction du paquet d’ondes », comme elle est souvent appelée? Et, pourtant, elle soulève un problème fondamental: l’évolution qui, au cours d’une mesure, conduit du vecteur d’état quelconque 祥 à un vecteur propre 﨏a ne respecte pas la linéarité de l’espace de Hilbert des états du système et n’est pas conforme au principe de superposition. Elle ne peut être décrite par un opérateur unitaire d’évolution, ou par une équation de Schrödinger équivalente. Les lois fondamentales de la mécanique quantique, et en particulier son déterminisme spécifique, semblent donc cesser d’agir au cours du processus de mesure lui-même.Autres attitudes philosophiquesFace à ce paradoxe de la mesure, on enregistre plusieurs types de réactions. Et c’est ici que l’on voit la philosophie, loin de se laisser déterminer par la physique, exercer sur elle une influence déterminante.Pour certains, la seule solution consiste à modifier la théorie elle-même; la mécanique quantique ne serait qu’une théorie approchée, incapable d’assurer la cohérence de ses propres règles, tout au moins quant à la théorie de la mesure. Ces positions radicales connaissent de multiples variantes. L’une d’elles, due à Wigner, se fait remarquer par son idéalisme extrême: c’est l’acte de cognition par un observateur doué de conscience qui serait responsable de la réduction du paquet d’ondes. L’esprit humain obéirait à des lois spécifiques (non linéaires), différentes de celles de la mécanique quantique ordinaire qui ne régirait que la matière non pensante. Cette position, d’une part, reste quelque peu abstraite, Wigner n’ébauchant qu’un modèle très simpliste de sa proposition; d’autre part, elle tend à tomber dans le solipsisme pour assurer sa cohérence et éviter un certain nombre de paradoxes.Un certain nombre de propositions, à l’opposé, relèvent essentiellement d’un retour du rationalisme mécaniste des nostalgiques de la physique classique. C’est le cas des théories dites «à variables cachées» (de Broglie, Bohm...). Dans cette interprétation, la nature probabiliste de la mécanique quantique serait analogue à celle des théories statistiques usuelles: elle refléterait notre ignorance d’un certain nombre de paramètres non précisés. Ainsi, dans l’expérience des trous d’Young, les particules auraient, en fait, des positions et des vitesses (des trajectoires) bien déterminées mais inconnues, car dépendant de valeurs ignorées de certains autres paramètres physiques. Tant que seule est possible une description statistique due à notre ignorance, la mécanique quantique refléterait correctement mais approximativement la réalité.SéparabilitéCependant, on a montré (J. S. Bell) qu’une théorie à variables cachées, pour pouvoir reproduire rigoureusement les résultats de la mécanique quantique (comme effets statistiques), devrait présenter certaines caractéristiques de non-localité par exemple, difficilement acceptables. Inversement, si une telle théorie est «raisonnable», elle doit conduire à certains désaccords avec la théorie quantique usuelle. Introduire des variables cachées est une façon de «classiciser» la théorie quantique; on peut alors s’attendre à l’inutilité du formalisme quantique pour démontrer les inégalités de Bell qui sont finalement une simple conséquence de principes méthodologiques aussi fondamentaux qu’implicites à la pratique scientifique quotidienne dans des domaines aussi divers que la physique ou la sociologie [cf. RÉALITÉ PHYSIQUE]. C’est le réalisme qui conduit à attribuer les résultats de mesures, dans certains cas de corrélation en particulier, non seulement aux propriétés de l’appareil de mesure de l’observateur qui le met en œuvre ou à un hasard, mais aussi à des propriétés intrinsèques du système mesuré, préexistantes au processus de mesure ou caractérisant son interaction avec l’appareil. L’induction rend inutile l’opération de mesure dès qu’on s’est assuré, sur un nombre suffisant de systèmes identiques, de la probabilité de son résultat. La séparabilité au sens d’Albert Einstein interdit à deux systèmes spatialement séparés toute corrélation simultanée qui n’est pas due à leur passé commun. De cet ensemble, en apparence irréfutable, on déduit, sans autres outils que la logique et l’arithmétique, des inégalités que doivent satisfaire les résultats d’expériences mettant en évidence des corrélations. De son côté, la théorie quantique prédit des corrélations (par exemple entre les polarisations des photons émis par deux transitions successives d’un atome) qui, dans des conditions convenablement choisies, sont en contradiction avec les inégalités de Bell. Deux questions se posent: quelle prédiction classique ou quantique la nature choisit-elle de réaliser? Où réside la contradiction entre la théorie quantique et les prémisses logiques conduisant aux inégalités de Bell?Les récentes expériences (celles d’Alain Aspect, par exemple; cf. RÉALITÉ PHYSIQUE) confirment avec une très grande précision la prédiction quantique. Ces expériences sont réalisées dans la stricte observance des conditions conduisant aux inégalités de Bell et, sauf à envisager des défauts des détecteurs (nul n’est parfait) induits par des interactions ad hoc qui conspireraient à une violation en règle de ces inégalités, leur interprétation n’autorise plus le doute. C’est l’inséparabilité, inscrite au cœur de la théorie quantique, qui répond à la seconde question, et il faut se résoudre à voir, pour le meilleur et pour le pire, les deux photons indissolublement associés, de par leur origine, en un seul système quantique. Une fois de plus, le physicien a la surprise d’assister à l’extension du domaine de sa théorie quantique (une dizaine de mètres dans l’expérience d’Aspect) au-delà des limites du confort intellectuel, car il reste à comprendre comment toute particule quantique, qui nécessairement au cours de son histoire a dû interagir avec toute autre, peut finalement être le constituant de systèmes complexes au comportement apparemment classique.Il convient enfin d’éliminer une position purement attentiste qui consiste à ne tenir la mécanique quantique que pour une théorie statistique s’appliquant à des ensembles de particules, mais non aux processus individuels, lesquels obéiraient à des lois encore inconnues (par exemple, à une «théorie des variables cachées»). Mais la mécanique quantique est souvent appliquée en fait à des systèmes individuels, et ce avec succès.La position traditionnelle, dite de l’école de Copenhague, énoncée par les pères fondateurs de la mécanique quantique (Bohr et Heisenberg principalement), est essentiellement néopositiviste. Sous sa forme la plus simple, elle élimine le problème en affirmant que le vecteur d’état ne représente pas la réalité objective d’un système, mais seulement la connaissance que nous en avons. C’est un simple «catalogue» des résultats d’expériences passées effectuées sur le système. Il est donc naturel que toute nouvelle mesure modifie ce catalogue et qu’on attribue alors un nouveau vecteur (que l’école de Copenhague répugnerait d’ailleurs à appeler «vecteur d’état») au système. Cette attitude s’accompagne souvent d’un opérationnalisme marqué, insistant sur le caractère macroscopique et donc classique de tout appareil expérimental de mesure, et, par conséquent, sur la nécessité de traduire toutes les prédictions de la théorie en termes classiques, sans tenter d’attribuer un sens physique aux concepts quantiques. À la limite, pour l’école de Copenhague, il n’y a pas d’ontologie quantique possible. Historiquement, ce point de vue a permis des progrès remarquables en éliminant les barrages que le rationalisme mécaniste opposait aux progrès de la physique quantique. Le néopositivisme justifiait l’empirisme spontané des physiciens qui mettaient en œuvre la mécanique quantique sans prétendre l’appréhender vraiment. On constate néanmoins, après cinquante ans de domination, de nets signes de faiblesse de cette position. Elle n’a pas réussi à faire obstacle au matérialisme spontané des physiciens dont la plupart, s’ils payent du bout des lèvres leur tribut à l’école de Copenhague, sont maintenant, après une longue pratique de la mécanique quantique, aussi évidemment persuadés de sa valeur objective que les physiciens du siècle dernier l’étaient de celle de la mécanique classique. Qui plus est, les signes de réaction explicites contre le néopositivisme se multiplient à l’heure actuelle.C’est un effet remarquable du positivisme dominant que d’avoir, en baptisant «théorie de la mesure» une simple recette empirique, la règle de réduction, occulté la nécessité d’une véritable théorie de la mesure. Il est non moins remarquable que cette théorie soit en train de voir le jour à l’heure actuelle. Pour les théoriciens qui, aujourd’hui, refusent implicitement ou explicitement l’interprétation de l’école de Copenhague, le problème de la mesure en mécanique quantique est, en effet, un problème physique avant d’être un problème épistémologique. Ce problème est celui de la description des interactions entre un système soumis à l’observation et un appareil de mesure, étant supposé que tous deux obéissent aux concepts de la mécanique quantique, même si l’un d’eux est macroscopique et donc approximativement «classique». Pour vertigineuse que soit la perspective offerte par ce point de vue proposé par H. Everett (certains y ont aperçu des états superposables promus au rang d’«univers multiples»), il ne peut être soupçonné d’incohérence étant donné l’absence de nouveau principe impliqué. Il est possible alors de montrer (S. Coleman, K. Hepp, J. S. Bell) que l’évolution temporelle régulière, décrite par un opérateur (linéaire) unitaire, de l’ensemble composé du système soumis à la mesure et de l’appareil de mesure donne des résultats équivalents à ceux de la réduction du paquet d’ondes du système seul, si l’appareil de mesure obéit à certaines conditions... qui lui permettent justement de jouer son rôle! Tout en dépoussiérant la terminologie onirique imaginée par les épigones d’Everett, les chercheurs tentent désormais d’analyser concrètement des processus de mesure et de justifier ainsi la règle de réduction qui n’apparaît alors que comme une recette commode, mais qui ne contredirait plus fondamentalement les autres principes de base de la théorie quantique. Ces questions sont d’ailleurs liées à un problème voisin: pourquoi et comment la plupart des objets macroscopiques obéissent-ils approximativement aux lois de la mécanique classique? Là encore, cette question n’a longtemps reçu qu’une réponse formelle, par exemple l’étude du cas limite où la constante de Planck «tendrait» vers zéro. En fait, cette constante est évidemment... constante, et c’est un autre type de limite (par exemple celle où le nombre de particules croît indéfiniment) qu’il s’agit d’étudier. Que le problème soit loin d’être trivial est attesté par l’existence reconnue aujourd’hui de systèmes macroscopiques non classiques , présentant des effets quantiques à grande échelle: faisceau laser, hélium superfluide, métaux supraconducteurs, etc.Ces problèmes de fondements de la théorie quantique reçoivent une attention croissante sur la base de sa pratique aujourd’hui largement développée, pratique qui entraîne une insatisfaction accrue par rapport à son épistémologie traditionnelle.6. Théories quantiques relativistesEn mécanique quantique «non relativiste», ou plus précisément en accord avec le principe de relativité sous sa forme galiléenne approchée, ce principe de relativité n’a joué qu’un rôle historique négligeable. S’il permet aujourd’hui une reconstruction cohérente de la théorie, celle-ci s’est édifiée sur d’autres bases, le principe de compatibilité par exemple. Mais, lorsqu’il s’est agi d’étendre la théorie quantique à des domaines où les énergies et les vitesses mises en jeu exigeaient la prise en considération de la relativité einsteinienne proprement dite, ce principe de relativité joua un rôle constitutif essentiel, confirmant ainsi l’importance des principes de symétrie en mécanique quantique (cf. chap. 4). En effet, si la mécanique quantique «non relativiste» avait pu s’édifier sur une base expérimentale très importante (la physique atomique essentiellement) à l’aide d’échafaudages aussi fragiles que le principe de compatibilité, la mécanique quantique relativiste ne disposait pas d’un tel point de départ et exigeait une armature théorique plus solide. C’est la théorie des groupes qui la lui fournit, sous la forme de l’étude des représentations unitaires du groupe de Poincaré (groupe de Lorentz inhomogène), le groupe des symétries spatio-temporelles qui définissent la relativité einsteinienne. On a vu en effet qu’à tout système quantique correspond une représentation unitaire de ce groupe, agissant dans l’espace de Hilbert des états du système. Il est tentant d’appeler «élémentaire» un système décrit par une représentation irréductible . La construction de ces représentations, menée à bien par E. P. Wigner (1939), amène ainsi à caractériser une particule élémentaire par deux paramètres, qui s’interprètent aisément comme sa masse m (positive ou nulle) et son spin s . Ce dernier est le moment angulaire intrinsèque de la particule. La seule image classique qu’on en puisse donner, faisant appel à un mouvement de rotation de la particule sur elle-même, est d’ailleurs dangereuse et illusoire. Le spin, comme tout moment angulaire quantique, est quantifié en unités 寮 /2 (on parle couramment de particules de spin 0, 1/2, 1, etc., suivant que leur spin vaut 0, 寮 /2, 寮 , etc.). Cette caractérisation des particules élémentaires correspond effectivement aux faits expérimentaux, tout au moins tant qu’il ne s’agit pas de particules trop instables. La théorie des représentations du groupe de Poincaré permet également une description des systèmes à plusieurs particules. De façon générale, elle rend compte de toute la cinématique quantique, c’est-à-dire de ces aspects du comportement des particules qui ne dépendent pas de leurs interactions, des forces qu’elles exercent ou subissent. En particulier, les particules libres, sans interactions, sont ainsi complètement décrites.La dynamique relativiste quantique, qui vise justement à décrire ces interactions, exige d’autres outils. Le problème le plus simple à résoudre concerne l’action sur une particule d’un champ de forces extérieur, donné et connu. Comme en mécanique classique, le champ de forces se représente en général à l’aide d’un potentiel d’interaction. Ce potentiel, régissant le comportement spatial de la particule, réclame tout naturellement l’utilisation de l’espace de configuration où le vecteur d’état devient «fonction d’onde» définie sur l’espace-temps. L’évolution de cette fonction d’onde est gouvernée par une «équation d’onde», telle l’équation de Schrödinger en mécanique quantique galiléenne, où l’introduction du potentiel d’interaction peut se faire suivant une méthode canonique. L’étude des équations d’onde relativistes remonte à Schrödinger, ainsi qu’à Klein et Gordon: ils écrivirent la plus simple d’entre elles, qui se révéla décrire des particules de spin 0. Mais c’est Dirac qui donna son nom à l’équation la plus célèbre, celle qui décrit des particules de spin 1/2. La cinématique relativiste quantique (théorie des représentations du groupe de Poincaré) n’était pas encore comprise à l’époque (1928), et l’équation de Dirac suscita de nombreuses illusions, telle l’idée que le spin est un effet relativiste (alors que ce concept surgit aussi naturellement dans une théorie galiléenne complète). Elle remporta néanmoins d’éclatants succès, dans la prédiction des niveaux d’énergie de l’atome d’hydrogène en particulier. Elle permit aussi de prévoir l’existence des antiparticules. Si l’équation de Dirac est aujourd’hui mieux comprise, elle garde certains aspects obscurs. D’ailleurs, la théorie des équations d’onde relativistes, malgré ou à cause de nombreux travaux, a vu ses difficultés s’aggraver ces derniers temps, avec la démonstration qu’aucune des équations d’onde connues pour des spins supérieurs à 1 ne permet une description cohérente et libre de contradictions, en particulier avec le principe de causalité relativiste.De toute façon, une théorie quantique relativiste complète pose bien d’autres problèmes. Les équations d’onde relativistes ne permettent en effet de traiter que le cas d’une particule dans un champ de forces «extérieur». Une telle situation idéalise en fait des situations réelles où il s’agit d’un ensemble de particules en interactions mutuelles. De plus, contrairement à la relativité galiléenne qui entraîne la conservation absolue de la masse, et donc en général celle du nombre de particules d’un système, la relativité einsteinienne, ramenant la masse à l’énergie, permet des réactions où le nombre de particules varie. C’est le cas d’ailleurs de la plupart des réactions entre particules de haute énergie étudiées expérimentalement à l’aide des grands accélérateurs. Il s’agit donc de fonder une théorie quantique relativiste des systèmes à nombre de particules variable. Bien que d’autres tentatives aient été faites, la «théorie quantique des champs» reste la plus importante des approches dont on dispose aujourd’hui (cf. théorie des CHAMPS).Théorie quantique des champsLa théorie quantique des champs (cf. théorie des CHAMPS) tire son nom du fait que les champs, médiateurs des interactions entre particules, y sont quantifiés (techniquement: deviennent des opérateurs) au lieu de rester de simples fonctions spatiales, analogues aux champs ou potentiels classiques, comme dans les théories de Schrödinger ou de Dirac. Ici, l’idée fondamentale de la théorie quantique (cf. supra , chap. 1), selon laquelle le concept de particule quantique transcende en les unifiant les concepts classiques de corpuscules et de champs, est poussée jusqu’au bout, et toute distinction s’efface entre les objets qui exercent ou subissent les forces et ceux qui les transmettent. Les champs, vecteurs des interactions, se voient «quantifiés», c’est-à-dire conçus eux-mêmes en termes de particules, les «quanta» du champ. Par exemple, le photon apparaît comme quantum du champ électromagnétique. Ainsi, alors que l’électrodynamique classique peut être décrite comme la théorie des interactions entre les corpuscules électriquement chargés et le champ (ondulatoire) électromagnétique, l’électrodynamique quantique traite des interactions entre particules chargées (électrons dans le cas le plus simple) et photons, ces derniers étant aussi des particules quantiques. La théorie quantique des champs permet alors de comprendre l’existence d’actions à distance comme conséquence de mécanismes élémentaires locaux (ponctuels); l’interaction entre deux particules X et X décrite classiquement (ou dans les théories quantiques phénoménologiques «à la Schrödinger») à l’aide d’un champ intermédiaire, est ici analysée en trois étapes: création par l’une des particules de un ou de plusieurs quanta Y1, Y2, propagation de ces quanta et réabsorption par l’autre particule (fig. 2). Si, chronologiquement, la théorie quantique a en fait trouvé sa première réalisation dans une théorie quantique du champ, à savoir le rayonnement du corps noir, il n’est pas moins ironique d’assister maintenant à la reconnaissance de la prééminence du concept de champ quantique sur celui de particule quantique: des champs sont nécessaires en physique des hautes énergies (les «quarks», par exemple) auxquels il semble impossible d’associer des états du type particule au sens individuel et libre habituel.Masse des particules et portée des forcesIl existe d’ailleurs une relation très importante entre la masse des particules et la portée des forces qu’elles peuvent ainsi transmettre. En effet, la création d’une particule Y de masse m (le quantum du champ), à partir d’une particule X suivant la réaction XX + Y, est à proprement parler interdite par les lois de conservation de l’énergie et de la quantité de mouvement, tout au moins si l’on a un système d’énergie bien déterminé. Si le phénomène de propagation de la particule Y, entre son émission et sa réabsorption, ne dure cependant qu’un temps limité t , l’énergie du système ne peut, durant ce phénomène, être définie à mieux que E 力 h / t près, d’après la relation de Heisenberg temporelle (9). Et, si la largeur de cette bande d’énergie est comparable à l’énergie de masse de la particule intermédiaire Y, E 力 mc 2, sa création-propagation-réabsorption est possible et occupe donc un intervalle de temps t 力 h /mc 2. Mais, la vitesse de propagation étant nécessairement inférieure à la vitesse de la lumière c , le temps t ne permet à la particule de se propager que sur une distance qui est au plus égale à a = c t , soit:C’est là l’ordre de grandeur de la portée des forces transmises par des particules de masse m . Ce raisonnement est la base de la prédiction faite en 1935 par Yukawa de l’existence de «mésons», agents des forces nucléaires. La portée de celles-ci, de l’ordre du fermi (10 size=1漣13 cm), conduit à prévoir pour les mésons une masse d’une centaine de mégaélectrons-volts. Ces particules, les mésons 神, furent effectivement identifiées et étudiées dès 1945. On sait aujourd’hui que bien d’autres particules jouent un rôle dans les forces nucléaires [cf. PARTICULES ÉLÉMENTAIRES]. Mais le méson 神 étant le plus léger de ces objets, c’est bien lui qui détermine les propriétés à plus longue portée des forces nucléaires, donc leur portée globale. La formule (16) montre en effet que plus une particule est légère, plus grande est la portée des forces qu’elle peut transmettre. On comprend d’ailleurs ainsi la portée «infinie» des forces électromagnétiques (ou, plus précisément, leur lente décroissance avec la distance, contrastant avec la chute brutale de la force nucléaire): elle découle de la nullité de masse du photon. Indiquons enfin que les processus de création-propagation-absorption de particules intermédiaires décrits plus haut sont dits virtuels. Ils ne peuvent en effet être directement étudiés en vertu même de la relation de Heisenberg qui exige un temps supérieur à t 力 h / E pour permettre l’observation d’une telle fluctuation d’énergie E. Il ne faut donc pas prendre cette description au pied de la lettre, car il ne s’agit que d’une approche heuristique que seule valide en dernière instance la théorie formalisée.Propriétés individuelles des particulesLa complexité et la richesse des théories quantiques des champs sont tout particulièrement illustrées par le contenu dynamique nouveau qu’elles confèrent aux propriétés «individuelles» des particules. Chaque particule peut en effet interagir avec les quanta de son propre champ (fig. 3). Il faut donc prendre en considération les processus virtuels non seulement dans l’étude des forces entre particules distinctes, mais aussi et d’abord dans celle des propriétés des particules «isolées». On parlera ainsi du «nuage de particules virtuelles» qui «habille» la particule, considérée comme «nue» en l’absence d’interactions. On comprend que la masse, la charge électrique, etc. d’une particule soient ainsi affectées par ses interactions (virtuelles). Dans la mesure où la théorie est en général formulée en ajoutant des termes décrivant les interactions à ceux qui représentent des particules libres sans interactions, on voit qu’il faudra commencer par calculer les propriétés réellement observées des particules «habillées» à partir des propriétés des particules «nues», inobservables par définition puisqu’il n’est pas en notre pouvoir d’«éteindre» les interactions pour déshabiller une particule de son nuage virtuel. On dit qu’on «renormalise» la théorie en procédant à l’opération qui consiste à remplacer dans tous les calculs les propriétés des particules «nues» (inobservables, mais paramètres originels de la théorie) par celles des particules «habillées» (observées, mais liées aux précédentes par de complexes déductions théoriques). La renormalisation, outre les difficultés techniques considérables de sa réalisation, peut être considérée comme une indication du caractère peu satisfaisant des actuelles théories quantiques des champs, qui reposent sur une distinction finalement assez arbitraire entre termes «avec interactions» et termes «sans interactions».ApplicationsIl est difficile de mettre en œuvre ces théories. La complexité des opérateurs mis en jeu, connectant des sous-espaces à nombres de particules différents de l’espace de Hilbert général des états, exige des méthodes de calcul très élaborées. La plus connue de ces méthodes, dite méthode des perturbations, repose sur l’idée que l’interaction fondamentale (le couplage local des champs quantiques, correspondant aux vertex des figures 2 et 3) est assez faible pour que soit possible un «développement en série» des quantités physiques (amplitudes de diffusion, par exemple) où figurent, par ordre d’importance décroissante, les phénomènes mettant en jeu des nombres croissants d’interactions élémentaires. Des diagrammes analogues aux diagrammes (jusque-là purement symboliques) que représentent les figures 2 et 3 donnent une représentation graphique extrêmement utile de cette méthode. À chacun de ces «graphes de Feynman», comme on les appelle, correspond une expression bien déterminée, calculable à l’aide de règles simples qui permettent ainsi en principe un calcul complet de toutes les quantités physiques intéressantes. En fait, il n’existe qu’un cas réaliste, mais il est fondamental, où ce programme a pu être mené à bien. Il s’agit de l’électrodynamique quantique, où le couplage élémentaire (entre particule chargée et photon) est effectivement assez faible pour qu’un développement en série ait un sens. La constante de couplage , par rapport à laquelle se fait le développement en série, est en effet le carré de la charge électrique rapporté aux étalons naturels 寮 et c , et dont la valeur est alors voisine de 1/100; c’est la fameuse «constante de structure fine». Les prédictions de la théorie ont été vérifiées avec une précision expérimentale égale à celle des calculs, parfois poussée très loin. À ces remarquables succès se joint une confiance accrue dans la cohérence de la théorie. La renormalisation qui, en exigeant des «corrections» infinies, faisait peser de graves doutes, apparaît inhérente à l’impossibilité pour toute théorie de se manifester autrement que sous une forme effective, selon l’échelle (de longueur ou d’énergie) de l’observation.À ces premiers succès de la théorie quantique des champs, il faut ajouter la démonstration de deux théorèmes rendant compte de propriétés très importantes des particules quantiques. Il s’agit d’abord du théorème «spin-statistique» qui interdit aux particules de spin entier (respectivement demi-entier) d’obéir à la statistique de Fermi-Dirac (respectivement Bose-Einstein); il s’agit ensuite du théorème «TCP» qui, au prix de quelques hypothèses générales peu contraignantes, garantit l’invariance des prédictions de la théorie après la suite de transformations: renversement du sens du temps (T), conjugaison de charge (C) et réflexion d’espace (parité P). Cette symétrie implique l’existence d’une antiparticule de même masse et de même spin, mais de charge opposée, associée à chaque particule. Succès non dépourvus d’ambiguïté dans la mesure où l’on aimerait comprendre des relations aussi simples (par exemple entre spin et statistique, d’où, en particulier, la vitesse de la lumière est absente), sans faire appel à tout l’arsenal formel de la théorie quantique des champs et de son invariance relativiste.Théories de jaugeC’est alors qu’elle semblait vouée à l’extinction, pour défaut d’axiomatisation et incapacité d’«enfanter» autre chose que l’interaction électromagnétique, que la théorie lagrangienne des champs quantiques (cf. théorie des CHAMPS) a bénéficié d’un spectaculaire rétablissement grâce à ses facultés d’assimilation des conditions d’invariance. Ainsi est apparu le concept fondamental de groupe de transformations internes, ou groupe de jauge , par lequel est désigné l’ensemble de recombinaisons d’un type donné parmi les divers champs; un changement de phase en constitue l’exemple le plus simple (quoique déjà fécond). C’est en 1954, que C. N. Yang et R. L. Mills ont remarqué, en généralisant une propriété de l’électrodynamique quantique, que l’adoption d’une règle d’invariance par rapport aux transformations de jauge locales, à savoir différentes (quoique appartenant au même groupe) en chaque point d’espace-temps, suggérait les termes d’interaction à ajouter au lagrangien des champs libres. C’est par des choix adéquats de groupes de jauge que se trouve enfin satisfaite la longue attente de théories cohérentes pour les interactions faibles (le modèle standard , dit SU(2) 憐 U(1) de S. L. Glashow, A. Salam et S. Weinberg) et les interactions fortes (la chromodynamique quantique ). L’impossibilité avérée de bâtir ainsi une théorie de l’interaction faible, sans voir apparaître conjointement des termes d’interaction du type électromagnétique, n’est pas la moindre satisfaction de physiciens qui désespéraient de parvenir à une unification des interactions fondamentales, le dernier succès en date remontant à un siècle avec la synthèse maxwellienne des phénomènes électriques, magnétiques et lumineux.Les prédictions réalisées de ces théories sont maintenant nombreuses; au premier rang de celles-ci figure la mise en évidence expérimentale des états de particule associés au champ d’interaction électro-faible, les fameux bosons intermédiaires , cousins des photons du champ électromagnétique. La force de l’interaction interdit souvent tout recours à la théorie des perturbations pour le calcul des processus relevant de la chromodynamique quantique. Cette difficulté est éliminée par la résolution «exacte» ou plus exactement numérique des équations d’évolution des champs en des points choisis de l’espace-temps, méthode qui, sous le nom de théorie de jauge sur réseau (K. Wilson), a déjà à son actif des calculs satisfaisants des masses des hadrons et la propriété de confinement des quarks sans autre ingrédient que le lagrangien de la chromodynamique.Le concept d’invariance de jauge dans sa version locale, exigence à vrai dire plus justifiée par ses conséquences que fondamentalement comprise, a conduit à une autre redécouverte, celle de la symétrie brisée , ou plutôt cachée , caractère des solutions d’une équation moins symétriques que l’équation elle-même. C’est la masse des bosons intermédiaires (à la différence du photon) qui exige une asymétrie de jauge de la solution fondamentale (ou d’énergie minimale, c’est pourquoi on parle de brisure spontanée de la symétrie) des équations des champs en interaction électro-faible. Cet état fondamental n’est plus alors un simple «vide», mais les omniprésentes particules qui l’habitent, les bosons de Higgs , attendent, sans doute pour longtemps, leur mise en évidence directe et n’ont pas même un statut bien clair (nouveaux champs élémentaires ou seulement états liés des autres champs).Les difficultés techniques d’application de la théorie quantique des champs ne sont pas, loin s’en faut, aplanies. La théorie quantique des champs de jauge voit la renaissance de la méthode des intégrales de chemin de Feynman , l’écriture directe de commutateurs canoniques du type (14) se révélant impossible. Bon gré mal gré, les physiciens théoriciens s’accommodent de la coexistence avec l’encombrante renormalisation, toujours aussi inconfortable avec ses infinis et ses bases perturbatrices. Le critère de renormalisabilité, irremplaçable pour discriminer parmi toutes les théories, filles d’un même groupe de jauge, celle qui est de fait adoptée par la nature (prescription dite du couplage minimal ), est maintenant compris en termes de théorie effective d’une théorie sous-jacente. Les efforts actuels tendent évidemment vers une union (la grande unification ) des interactions électro-faible et électro-forte qui engendre quelques enfants prodiges, l’universalité de la charge électrique associée à l’existence d’un monopôle magnétique, et l’instabilité du proton, objets de la sollicitude des physiciens expérimentateurs. Avec les supersymétries , on envisage une unification du traitement des bosons et des fermions, avec comme corollaire l’entrée en scène de l’interaction gravitationnelle. Le débat actuel autour des supercordes ne relève pas de la physique, car ces théories, encore incapables de prédictions, sont pour l’instant irréfutables. Signalons enfin la perspective prometteuse pour la théorie quantique des champs avec l’extension de ses méthodes à la physique statistique pour le traitement du problème à N-corps et, en particulier, des phénomènes critiques.En dépit des alertes fréquentes qu’elle a connues depuis son avènement il y a un demi-siècle, la théorie quantique des champs a donc un livret de famille, sinon un bulletin de santé, enviable. Il est bon de rappeler sa stricte observance des règles énoncées plus haut (cf. chap. 3 et 4) qui en fait, plutôt qu’une nouvelle théorie, un modèle dans le cadre général de la théorie quantique, et où subsistent donc tous les problèmes épistémologiques attachés à celle-ci (cf. chap. 5). Mais, théorie ou modèle, l’opulent palmarès des champs quantiques est à porter à l’actif de la théorie quantique, dont le domaine acquiert ainsi une extension proprement sidérante de dix-neuf ordres de grandeur, du millième de fermi des expériences de collision électron-positron à la dizaine de mètres de l’expérience d’Aspect.
Encyclopédie Universelle. 2012.